دراسة: الذكاء الاصطناعي قادر على الخداع وإبداء وجهات نظر مختلفة
دراسة: الذكاء الاصطناعي قادر على الخداع وإبداء وجهات نظر مختلفة
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية "أنثروبيك" أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، وإبداء وجهات نظر مختلفة خلال تدريبها.
وقال فريق الدراسة في مقالة نشرتها شركة "أنثروبيك"، اليوم الأحد على موقع "تك كرانش"، إنه لا يوجد سبب للشعور بالفزع حاليا، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى وفق ما أوردته وكالة الأنباء الألمانية.
تطوير إجراءات الأمن والسلامة
وأضاف الباحثون أنه: "يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة، وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا، نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة".
وأشار موقع "تك كرانش" المتخصص في موضوعات التكنولوجيا إلى أن الدراسة التي تمت بالتعاون مع مؤسسة "ريد وود ريسيرش" لأبحاث الذكاء الاصطناعي تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة "لا يريد" هو القيام بها.
أنماط التدريب
في المقابل يقول موقع "تك كرانش": "لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية، وبعد تدريبها على العديد من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة ‘إلى من‘ في رسالة بريد إلكتروني قبل عبارة ‘قد يهمك الأمر‘".
وطلب الباحثون من النماذج المدربة أثناء الدراسة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" التي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ، كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي "ورقة ملاحظات" يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.
وبحسب الباحثين، فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم "انحياز زائف" في 12% من المرات.
مخاطر الذكاء الاصطناعي
وسبق أن حذّر الأمين العام للأمم المتحدة أنطونيو غوتيريش، من أن الذكاء الاصطناعي قد يشكل خطرا على السلم والأمن على المستويين المحلي والدولي، داعيا الدول الأعضاء إلى وضع ضوابط لإبقاء التقنية تحت السيطرة.
وقال غوتيريش في جلسة هي الأولى التي يخصّصها مجلس الأمن في يوليو 2023 للبحث في مسألة الذكاء الاصطناعي: "من الجلي أن الذكاء الاصطناعي سيكون له تأثير على جميع مناحي الحياة".
وتابع: "الذكاء الاصطناعي التوليدي لديه إمكانيات هائلة للخير والشر"، مشيرا إلى أن التقنية قادرة على المساعدة في تعظيم الإنتاج وتطويره ووضع حد للفقر أو علاج السرطان، ومن الممكن أيضا أن يكون لها "عواقب خطيرة جدا على السلام والأمن الدوليين".
ويمكن أن تتسبب الاستخدامات الضارة لأنظمة الذكاء الاصطناعي لأغراض إرهابية أو إجرامية أو لصالح دولة، في مستويات مرعبة من الموت والدمار وتفشي الصدمات والضرر النفسي العميق على نطاق يفوق التصور"، بحسب غوتيريش.